联合学习(FL)提供了一个有效的范式,可以通过隐私保护训练机器学习模型。但是,最近的研究表明,由于可能是恶意和异质的当地代理商,FL受到各种安全,隐私和公平威胁的约束。例如,它容易受到仅贡献低质量数据的本地对抗药物的攻击,目的是损害具有高质量数据的人的性能。因此,这种攻击破坏了FL中公平性的现有定义,主要集中于某种绩效奇偶校验的概念。在这项工作中,我们旨在解决此限制,并通过对FL(FAA)的代理意识(FAA)提出正式的公平定义,该定义将当地代理的异质数据贡献考虑在内。此外,我们提出了基于代理聚类(焦点)的公平FL培训算法以实现FAA。从理论上讲,我们证明了线性模型的温和条件下的聚焦和最优性,并且具有有界平滑度的一般凸丢失函数。我们还证明,在线性模型和一般凸损耗函数下,与标准的FedAvg协议相比,FAA始终达到FAA衡量的更高公平性。从经验上讲,我们评估对四个数据集的重点,包括不同设置下的合成数据,图像和文本,并且我们表明,与FedAvg相比,基于FAA的焦点基于FAA的公平性显着更高,同时保持相似甚至更高的预测准确性。
translated by 谷歌翻译